发布时间:2025-04-05 05:52:41源自:本站作者:PB2345素材网阅读(14)
法律规范总是抽象的、一般的,经常一刀切,难以保证在每个具体案件中都实现正义,等等。
法学家可以借助拟制思维,在主体、规范、事实、社会之间建构法理思维规则,发挥批判思维、反省思维、体系思维的作用。权力、权利以及主体都是法律拟制的,都需要在具体的语境中重新被审视。
他说:如果一种法律理论符合两项标准,那么它就是成功的:首先,它由必然为真的有关法的命题组成。即使出现法律与其他社会规范的关系断裂,也需要以法律的名义开展活动,这使法律成为了法律渊源。这使得法理思维失去了批判、矫正错误判断的功能。法律应当具有实用性,而不应华而不实。由于没有对中国法理学的生成机制、思维方式缺陷以及已经取得的成就等进行认真梳理,只想在厘清教义学法学和社科法学关系的基础上建构新的知识体系,并没有找到重构中国法理学知识体系的现实路径,所以,这难以实现中国法理学理论体系的脱胎换骨。
缺少主体的体系思维是不完整的。法治是一种被定义的生活。如前所述,在相当长的将来,AI可能也只是在不智能的弱人工智能的框架内提升机器能力。
目前AI法律问题涉及主体资格、意思表示、电子合同、数据、广告、侵权、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、无人驾驶、机器人、物联网、机器决策、犯罪、行政管理、法律服务、司法审判等,与IA法律问题存在大量重合。AI虽快速发展,但在难以进行形式化计算的认知活动中始终未获任何成功便印证了这一点。本文所阐述的增强人类,并不包括将机器智能技术直接融入人类身体而增强人类。索菲亚的公民身份根本不能成为支撑AI应具有主体资格的论据。
贝叶斯网络之父朱迪亚•珀尔(Judea Pearl)在2018年否定了贝叶斯网络算法对实现类人智能的意义,认为因果推理才是通往类人智能的路线。有学者指出,要从人机协作和人机共生而不是人机对立的角度探寻发展基于负责任的态度的可接受的AI的可能性,应当意识到发展AI旨在增强人类而非替代人类。
IA不认同AI通过计算机模拟人类智能、替代人类的理念,认为计算机应用于改善和增强人类的智慧、能力,强调以人为本,主张人机交互、人机共存,这种理念可以追溯到皮尔士(Peirce)的符号学与实用主义哲学。人文主义强调个人尊严、价值,坚持以人为本。不过,AI的成就仅限于形式化领域,在意向性领域依然一无所获。欧盟议会法律事务委员会《关于机器人的民法规则》第59(f)条声称,赋予机器人电子人的地位是为了解决所谓的最先进机器人造成的损害问题及外部互动问题。
例如,认为AI、机器人已经逐步具有一定程度的自我意识和自我表达能力。IA以人为中心,更关心人与机器的互动,会保证人的参与和控制。无论审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。首先,AI法律规制应当遵循何种价值取向,此系其法律规制的价值基础。
计算机从第一代发展到第四代,推动机器智能水平持续提升,计算机、网络、虚拟现实、大数据、云计算、物联网、区块链、人工智能等数字计算技术可以在机器智能的宏观维度上得到统一。这种观点能够较好地解释人类与AI之间的伦理关系以及AI的伦理性,即AI与人并不对等,但具有道德调节的能动性,AI不具有主体资格并不意味着其不承担道德负载。
【内容摘要】在机器智能领域,人工智能与智能增强两大技术阵营在应替代人类还是增强人类上存有理念对立,并映射于法律。当然,我们也不能断言AI绝对不会产生意识、强人工智能一定不会出现,但从计算机结构、AI技术范式以及心智哲学的研究来看,机器从当前的识别走向理解,从逻辑走向思维甚至产生意识,即便人类上下求索,也是长路漫漫,就连看起来最容易突破的、不以智能为目标的无人驾驶也需要经过很长时间的完善。
AI法律规制的基本思路应当是分析与解决此四项框架性法律问题,并向各领域延伸。在面对人类整体族群利益时,AI法律规制的价值理念并非一个特别复杂的问题,在以机器为中心与以人为中心的冲突之间应当选择后者。拉图尔提出的行动者网络理论在社会学、人类学、伦理学、科学技术学等学科有着广泛影响,按照该种理论,主体、客体不是严格二分的,环境、人工物等非人因素与人均为具有能动性的、平权的行动者(actant),组成了相互交织的行动者网络。AI与IA的对立性具化于计算机技术,显现于人机关系,传递于人际关系与社会关系,以至于AI法律问题有别于IA法律问题。笔者认为,局部替代人类、整体增强人类的价值取向应当贯彻于AI其他三项框架性法律问题的解决。这主要体现为法律应秉持人工智能局部替代人类、整体增强人类的价值理念,保障人工智能符合人类伦理,在人工智能不拥有主体资格的前提下进行制度设计,则可消除人工智能与法律的根本性冲突,将人工智能法律规制融入既定法律体系。
在法律上,如果只是基于AI的正价值而顺应与促进AI的发展,对AI的负价值却不予限制,无疑是违背人类整体利益与人文主义精神的。然而辩证地看,机器智能技术发展至今,AI与IA既有对立性,也有统一性。
AI的适法性问题表现为其安全性、伦理正当性、敏感领域应用准入与使用规则等问题。诸多AI法律问题的研究便以这两项一般性基础问题为基础,在对这两项问题未达成基本共识、规制基点无法确立的背景下,对包括AI的适法性问题、责任问题以及AI作品、金融、交通与医疗等问题在内的具体问题的研究便难以深入。
笔者认为,在现有的科技、哲学、伦理学、社会学与法学背景下,这种观点只是一种过度超前的想象,AI法律规制应在AI不具有主体资格的前提下进行设计。在理念上,AI虽秉持替代人类,但其在替代人类的同时也在增强人类。
在笔者看来,讨论AI主体资格问题的前提是出现了或极可能出现强人工智能,但哲学上多对强人工智能的出现持悲观态度,在无法确定人脑运行原理能否被准确认识的背景下,即便是乐观的AI科学家也不能确定通往强人工智能的突破口究竟在哪里。最后,AI替代人类实施行为而产生的责任如何认定,此系AI法律规制的最终落实。IA虽秉持增强人类,但其在增强人类的同时也在替代人类。AI责任问题的难点主要体现在责任主体、归责与因果关系的认定疑难上。
一些科学家认为类脑计算(神经形态计算)将是从弱人工智能到强人工智能的主要进路,类脑智能将是人工智能的终极目标。但明显的是,目前的技术水平根本不可能使索菲亚作出此种自主性的回答,此事件完全是由商业利益推动的。
折中论是主流观点,其承认人工物的道德能动性,但认为这种道德能动性只是调节性的,而人的道德能动性是原发性的,因此,在行动者网络中不能将人工物看作像人一样的道德行动者,而应将其看作对社会信息、关系具有能动调节作用的道德调节者。AI法律问题既与IA法律问题存在重合,也包括大量新问题。
塞尔提出的中文屋思想实验对符号主义范式以及图灵测试进行了批判,认为形式化的符号系统不可能产生智能。其次,意思表示、电子合同、数据、消费者保护、广告与不正当竞争等重合问题的形成逻辑通常不与所使用的技术是增强人类还是替代人类相关,在AI之上大致可以使用既定的IA规制模式。
尤其是在2012年之后,AI类人智能水平提升迅速,甚至在人类传统智能优势领域多次击败了人类智能,并向各领域渗透,AI开始替代人类岗位,AI法律问题由此而生。第四,动物保护、法人拟制无法与AI主体资格问题相类比,因为所处环境、背景、价值理念、出发点以及在人类社会所引发的后果与连锁反应是完全不同的。法律的代码化、算法化也是有限度的,因为自然语义的符号化已经是算法难以跨越的障碍,更何况法律不仅是逻辑的,还是经验的。最后,AI责任规则需要在以机器为中心的技术与以人为中心的责任之间建立合理连接,确定归责基础。
当然,协同并非意味着一致。自20世纪70年代起,符号主义范式受到现象学学者的严厉批判。
若法律赋予AI主体资格,无疑会偏离以人类为中心的思想。认为智能机器人具有精神,应当享有权利。
鉴于替代人类的AI与以人为中心的法律在价值理念上存在巨大冲突,AI法律规制必然伴随价值取向问题,即AI法律规制在替代人类与增强人类之间应如何权衡、取舍,是顺应AI替代人类的理念与技术,还是予以矫正。二、人工智能法律问题的根源、归纳与解决思路 鉴于AI法律问题具有特殊性、复杂性,并与IA法律问题存在分离与交融,研究AI的法律规制应首先分析AI法律问题的根源与症结,进而对AI法律问题进行归纳,在此基础上分析其解决思路。
欢迎分享转载→ 3qul9.onlinekreditetestsiegergerade.org